예전엔 정보가 부족해서 문제였다.
하지만 지금은 너무 많은 정보가 문제다.
특히 생성형 AI가 등장한 이후, 정보는 생산이 아니라 검증의 문제가 되었다.
누구나 한 줄의 프롬프트만 입력하면 수천 단어의 텍스트, 요약본, 기사, 분석 리포트를 받을 수 있다.
이게 과연 정확할까? 진짜일까? 누가 책임지지?
이런 시대에 서비스 기획자들이 가장 먼저 고민해야 하는 건 기술이 아니라 ‘믿을 수 있음’을 어떻게 디자인할 것인가다.
바로 이것이 ‘신뢰도 UI’가 중요해진 이유다.
GPT나 Claude, Gemini 같은 LLM은 ‘진실을 말하는 엔진’이 아니다.
이들은 다음에 올 단어의 확률을 기반으로 텍스트를 이어나가는 기계다.
즉, 그럴듯하게 보이는 말을 하는 데는 뛰어나지만, 사실 확인 능력은 없다.
그래서 hallucination(환각) 문제가 발생한다. 아래와 같은 사례는 흔하다.
- 논문 요약 요청 → 존재하지 않는 논문 제목 생성
- 인물 정보 검색 → 실제 인터뷰가 없는 말을 만들어냄
- 특정 법률 해석 → 출처 없는 판례를 창작해냄
여기서 중요한 건, 유저는 이런 문제를 몰라서 당한다는 것이다.
그래서 신뢰를 보완하는 ‘시각적 장치’가 필요하다.
AI가 생성한 콘텐츠의 신뢰성을 보완하기 위한 첫 번째 흐름은 바로 출처 시각화다.
Perplexity는 AI 답변 옆에 출처 링크를 명확히 병기한다.
심지어 마우스를 올리면, 해당 문장에 어떤 출처가 연결됐는지 하이라이팅된다.
이건 단순한 기능이 아니라, 유저의 불안함을 줄여주는 경험 설계다.
Humata는 업로드한 PDF를 요약하면서, 각 요약 문장을 원문과 연결해준다.
이는 단순 요약 이상의 AI–원문 간 ‘신뢰 다리’를 시각화한 좋은 예다.
기획자 입장에서 신뢰도 UI를 만들려면 아래 3가지를 고민해야 한다.
- 출처 연결 구조
단순한 URL 리스트가 아니라, 정보와 출처가 1:1로 매핑되도록 설계
ex) 문장마다 레퍼런스 넘버를 붙이거나, 하이라이트로 대응
- 불확실성에 대한 표시
AI가 확신 없는 내용을 생성했을 때는 “불확실함”을 UX로 표현해야 함
예: “이 정보는 2023년 이후 업데이트되지 않았을 수 있습니다” 같은 안내
- 사용자 조작 가능성
유저가 출처를 직접 클릭하거나 변경 요청을 보낼 수 있게 구성
AI가 잘못된 정보를 보여줄 경우 유저가 ‘피드백 루프’를 제공할 수 있도록
사람은 생각보다 많은 것을 기계에 맡긴다.
네비게이션이 알려준 길을 그대로 따라간다.
GPT가 써준 이메일을 그대로 복사해서 붙여넣는다.
그만큼, 사람은 기계가 제공하는 정보에 쉽게 안심한다.
그래서 더욱이 서비스 기획자는 유저가 오해하지 않도록 조심스러운 설계가 필요하다.
출처 없는 글은 자동으로 회색 처리한다거나,
- “이건 AI가 추정한 내용입니다” 같은 안내 텍스트를 상시 표기하거나,
- “이 답변이 마음에 들지 않나요?” 같은 리디자인 버튼을 넣는 식으로.
지금까지의 UI는 정보 중심이었다.
앞으로의 UI는 정보 + 신뢰 중심이 될 것이다.
우리는 AI의 발전을 막을 수 없다. 하지만 AI의 한계를 드러내고, 사용자에게 투명하게 보여주는 UI는 기획자가 만들 수 있다.
신뢰는 텍스트가 아니라 경험으로 전달된다.
앞으로의 기획자는, 텍스트보다 신뢰를 먼저 설계해야 하는 시대를 살아간다.